Kunstig intelligens (AI) lover at transformere vores liv og hjælpe med at gøre os mere effektive, produktive, sundere og innovative. Denne spændende teknologi bliver allerede brugt på tværs af den private og offentlige sektor, og udnytter potentialet i data til at forbedre prognoser, lave bedre produkter og tjenester, reducere omkostninger og frigøre medarbejdere fra rutinemæssigt administrativt arbejde.

Men som med enhver ny teknologi er der risici. Den udbredte og uregulerede brug af denne teknologi giver anledning til bekymring over dens indvirkning på menneskerettigheder og privatliv. Dette gælder især for generativ AI (GenAI), som bruger deep-learning algoritmer og kraftfulde fundamentmodeller, der træner på massive mængder umærkede data for at give output produceret af kunstig intelligens.

Denne rapport undersøger konsekvenserne for privatlivet af den udbredte anvendelse af kunstig intelligens. Den har til formål at afdække, hvad dette betyder for virksomheder og skitserer de vigtigste skridt, organisationer kan tage for at bruge AI på en ansvarlig måde. Ved at holde sig informeret om konsekvenserne for privatlivet af AI-adoption og tage proaktive skridt til at mindske risici, kan virksomheder udnytte denne teknologis muligheder og samtidig beskytte individers privatliv.

 

Download PDF

Privatliv i den nye verden af kunstig intelligens

Hvordan man opbygger tillid til kunstig intelligens gennem privatliv.



Download PDF (1.9 MB) ⤓



Fem trin, der kan hjælpe virksomheder med at opbygge tillid til AI


Lovgivere, politiske beslutningstagere og regulatorer understreger konsekvent at tilpasse AI-systemer til anerkendte standarder. Så det er vigtigt at identificere, hvilke lovgivningsmæssige rammer, der gælder for din virksomhed, bestemme, hvilke du vælger at overholde, og planlægge, hvordan din AI vil blive implementeret. Skab en baseline for AI-brug, der tilfredsstiller forskellige regimer, og strømlin din AI-udvikling eller AI-relaterede forretningsaktiviteter i overensstemmelse hermed.




Vurder indvirkningen på privatlivet og adresser compliance udfordringer på idéstadiet - og gennem hele AI-livscyklussen - gennem en systematisk vurdering af privatlivets fred (privacy impact assessment, PIA) eller databeskyttelsesvurdering (data protection impact assessment, DPIA). Privacy by Design, som beskrevet i ISO 31700 Privacy by Design Standard og KPMG Privacy by Design Assessment Framework, kan hjælpe organisationer med at indbygge privatliv i AI-systemer.


Selv hvis du mener, at dit system kun bruger anonymiserede eller ikke-personlige data, kan der opstå privatlivsrisici, herunder genidentifikation fra træningsdatasæt og endda AI-modeller og nedstrømsvirkninger af ikke-personlige data, der bruges til at træne modeller, der påvirker enkeltpersoner og samfund. En robust vurdering vil også omfatte modellering af sikkerhed og privatlivstrusler på tværs af AI-livscyklussen og inddragelse af interessenter, hvor det er relevant. Overvej bredere privatlivsspørgsmål såsom dataretfærdighed (hvor retfærdigt mennesker behandles i den måde, du bruger deres data på) og datasuverænitet for indfødte (indfødte folks rettigheder til at styre data om deres samfund, folk, lande og ressourcer).




Vurder privatlivsrisici forbundet med at udvikle interne AI-løsninger eller bruge offentlige modeller, der træner på offentlige data. Sørg for, at disse modeller overholder nyudviklede kunstig intelligens og etiske standarder, regulativer, bedste praksis og adfærdskodekser for at operationalisere kravene (f.eks. NIST, ISO, regulatorisk vejledning). Dette gælder uanset om du er udvikleren eller en kunde, der udvikler eller anskaffer og integrerer et AI-system.


Hvis du er en kunde, skal du bede udvikleren om dokumentation til at støtte deres PIA og relaterede AI-privatlivsrisikovurderinger og også udføre dine egne modeller. Hvis de ikke kan levere denne dokumentation, skal du overveje en anden udbyder. I mange jurisdiktioner, herunder Storbritannien og EU, er en PIA/DPIA allerede et lovkrav og en baseline, der bør tage udgangspunkt i AI-overvejelser. PIA/DPIA'en bør behandle indledende AI-brug og designovervejelser (f.eks. problemformulering, no-go-zoner osv.). Fokus på artikulationen af nødvendighed og proportionalitet for dataindsamlingen, samt samtykke.




Hvis du er en udvikler af AI-systemer eller en tredjepart/leverandør af AI, bør du forsikre kunder og regulatorer om, at du har taget den nødvendige omhu for at opbygge troværdig AI. En måde at gøre dette på er gennem en revision i forhold til anerkendte standarder, regulatoriske rammer og bedste praksis, herunder en algoritmisk konsekvensanalyse.

For at illustrere dette kan test af AI-systemet ved hjælp af testscripts, adressere scenarier i den virkelige verden for at opnå brugerfeedback og hjælp til at sikre dens effektivitet, pålidelighed, retfærdighed og overordnet accept før implementering. Dette inkluderer at forklare, hvilke data der blev brugt, hvordan de blev anvendt på slutbrugeren, samt hvordan slutbrugeren kan bestride eller udfordre brugen af AI til automatiserede beslutningsformål for at forhindre skæve resultater.




Vær forberedt på at besvare spørgsmål og administrere præferencerne hos personer, der påvirkes af din udvikling eller brug af AI-systemer. Organisationer, der ønsker at bruge AI til automatiseret beslutningstagning, bør være i stand til i almindeligt sprog at forklare, hvordan AI kan påvirke deres slutbrugere.


Forklarlighed er evnen til at artikulere, hvorfor et AI-system nåede en bestemt beslutning, anbefaling eller forudsigelse. Vær forberedt på at besvare spørgsmål og administrere præferencerne hos personer, der påvirkes af din udvikling eller brug af AI-systemer. Overvej at udvikle dokumenterede workflows for at identificere og forklare, hvilke data der blev brugt, hvordan de blev anvendt på slutbrugeren, og hvordan slutbrugeren kan bestride eller udfordre brugen af AI til beslutningsformål.



Kontakt os

Bent Dalager

Partner og Head of Innovation & NewTech

KPMG i Danmark

E-mail

Følg os

Relateret indhold